影响最大化是挖掘社交网络深入信息的关键问题,该信息旨在选择从网络中选择种子以最大程度地增加受影响的节点的数量。为了评估种子套装的影响,现有的努力提出了拟议的代理模型(转换),以较低的计算成本来代替昂贵的蒙特卡洛模拟过程。这些基于网络先验知识的替代转换从各个角度引起具有相似特征的不同搜索行为。对于特定情况,用户很难先验确定合适的转换。在本文中,我们提出了一个多种转化的进化框架,以进行影响最大化(MTEFIM),并保证了融合保证,以利用替代转换的潜在相似性和独特的优势,并避免用户手动确定最合适的转换。在MTEFIM中,将多个转换同时优化为多个任务。每个转换均分配一个进化求解器。进行了MTEFIM的三个主要组成部分:1)根据不同人群的个人(种子集)重叠程度估算转化之间的潜在关系,2)根据转变关系,将个体转移到跨种群中,3)选择最终输出种子集,包含所有代理模型知识。 MTEFIM的有效性在基准和现实世界社交网络上得到了验证。实验结果表明,与几种流行的IM特异性方法相比,MTEFIM可以有效地利用跨多个转换的潜在转移知识,以实现高度竞争性能。可以在https://github.com/xiaofangxd/mtefim上访问MTEFIM的实现。
translated by 谷歌翻译
Diagram object detection is the key basis of practical applications such as textbook question answering. Because the diagram mainly consists of simple lines and color blocks, its visual features are sparser than those of natural images. In addition, diagrams usually express diverse knowledge, in which there are many low-frequency object categories in diagrams. These lead to the fact that traditional data-driven detection model is not suitable for diagrams. In this work, we propose a gestalt-perception transformer model for diagram object detection, which is based on an encoder-decoder architecture. Gestalt perception contains a series of laws to explain human perception, that the human visual system tends to perceive patches in an image that are similar, close or connected without abrupt directional changes as a perceptual whole object. Inspired by these thoughts, we build a gestalt-perception graph in transformer encoder, which is composed of diagram patches as nodes and the relationships between patches as edges. This graph aims to group these patches into objects via laws of similarity, proximity, and smoothness implied in these edges, so that the meaningful objects can be effectively detected. The experimental results demonstrate that the proposed GPTR achieves the best results in the diagram object detection task. Our model also obtains comparable results over the competitors in natural image object detection.
translated by 谷歌翻译
In this paper, we study the use of deep Transformer translation model for the CCMT 2022 Chinese-Thai low-resource machine translation task. We first explore the experiment settings (including the number of BPE merge operations, dropout probability, embedding size, etc.) for the low-resource scenario with the 6-layer Transformer. Considering that increasing the number of layers also increases the regularization on new model parameters (dropout modules are also introduced when using more layers), we adopt the highest performance setting but increase the depth of the Transformer to 24 layers to obtain improved translation quality. Our work obtains the SOTA performance in the Chinese-to-Thai translation in the constrained evaluation.
translated by 谷歌翻译
FOG无线电访问网络(F-RAN)是一项有前途的技术,用户移动设备(MDS)可以将计算任务卸载到附近的FOG接入点(F-APS)。由于F-APS的资源有限,因此设计有效的任务卸载方案很重要。在本文中,通过考虑随时间变化的网络环境,制定了F-RAN中的动态计算卸载和资源分配问题,以最大程度地减少MD的任务执行延迟和能源消耗。为了解决该问题,提出了基于联合的深入强化学习(DRL)算法,其中深层确定性策略梯度(DDPG)算法在每个F-AP中执行计算卸载和资源分配。利用联合学习来培训DDPG代理,以降低培训过程的计算复杂性并保护用户隐私。仿真结果表明,与其他现有策略相比,提议的联合DDPG算法可以更快地实现MDS更快的任务执行延迟和能源消耗。
translated by 谷歌翻译
发言人识别系统(SRSS)最近被证明容易受到对抗攻击的影响,从而引发了重大的安全问题。在这项工作中,我们系统地研究了基于确保SRSS的基于对抗性训练的防御。根据SRSS的特征,我们提出了22种不同的转换,并使用扬声器识别的7种最新有前途的对抗攻击(4个白盒和3个Black-Box)对其进行了彻底评估。仔细考虑了国防评估中的最佳实践,我们分析了转换的强度以承受适应性攻击。我们还评估并理解它们与对抗训练相结合的自适应攻击的有效性。我们的研究提供了许多有用的见解和发现,其中许多与图像和语音识别域中的结论是新的或不一致的,例如,可变和恒定的比特率语音压缩具有不同的性能,并且某些不可差的转换仍然有效地抗衡。当前有希望的逃避技术通常在图像域中很好地工作。我们证明,与完整的白色盒子设置中的唯一对抗性训练相比,提出的新型功能级转换与对抗训练相比是相当有效的,例如,将准确性提高了13.62%,而攻击成本则达到了两个数量级,而其他攻击成本则增加了。转型不一定会提高整体防御能力。这项工作进一步阐明了该领域的研究方向。我们还发布了我们的评估平台SpeakerGuard,以促进进一步的研究。
translated by 谷歌翻译
最近的工作阐明了说话者识别系统(SRSS)针对对抗性攻击的脆弱性,从而在部署SRSS时引起了严重的安全问题。但是,他们仅考虑了一些设置(例如,来源和目标扬声器的某些组合),仅在现实世界攻击方案中留下了许多有趣而重要的环境。在这项工作中,我们介绍了AS2T,这是该域中的第一次攻击,该域涵盖了所有设置,因此,对手可以使用任意源和目标扬声器来制作对抗性声音,并执行三个主要识别任务中的任何一种。由于现有的损失功能都不能应用于所有设置,因此我们探索了每种设置的许多候选损失功能,包括现有和新设计的损失功能。我们彻底评估了它们的功效,并发现某些现有的损失功能是次优的。然后,为了提高AS2T对实用的无线攻击的鲁棒性,我们研究了可能发生的扭曲发生在空中传输中,利用具有不同参数的不同转换功能来对这些扭曲进行建模,并将其整合到生成中对手的声音。我们的模拟无线评估验证了解决方案在产生强大的对抗声音方面的有效性,这些声音在各种硬件设备和各种声音环境下保持有效,具有不同的混响,环境噪声和噪声水平。最后,我们利用AS2T来执行迄今为止最大的评估,以了解14个不同SRSS之间的可转移性。可传递性分析提供了许多有趣且有用的见解,这些见解挑战了图像域中先前作品中得出的几个发现和结论。我们的研究还阐明了说话者识别域中对抗攻击的未来方向。
translated by 谷歌翻译
机器阅读理解引起了广泛的关注,因为它探讨了模型对文本理解的潜力。为了进一步为机器配备推理能力,提出了逻辑推理的挑战性任务。以前关于逻辑推理的著作提出了一些策略,以从不同方面提取逻辑单位。但是,对于逻辑单元之间的长距离依赖性建模仍然存在挑战。同样,要求揭示文本的逻辑结构,并将离散逻辑进一步融合到连续的文本嵌入。为了解决上述问题,我们提出了一个端到端的模型徽标,该登录徽标器利用两个分支的图形变压器网络进行文本逻辑推理。首先,我们引入了不同的提取策略,将文本分为两组逻辑单元,并分别构造逻辑图和语法图。逻辑图模拟了逻辑分支的因果关系,而语法图捕获了语法分支的共发生关系。其次,为了建模长距离依赖性,每个图的节点序列被馈入完全连接的图形变压器结构。两个相邻的矩阵被视为图形变压器层的注意偏置,它们将离散的逻辑结构映射到连续的文本嵌入空间。第三,在答案预测更新功能之前,介绍了动态的门机制和问题意识到的自我发项模块。推理过程通过采用逻辑单元来提供与人类认知一致的逻辑单位。实验结果表明了我们的模型的优势,该模型的表现优于两个逻辑推理基准上的最新单个模型。
translated by 谷歌翻译
最近,提出了注意力任意样式转移方法来实现细粒度的结果,其操纵内容和风格特征之间的点亮相似性。然而,基于特征点的注意机构忽略了特征多歧管分布,其中每个特征歧管对应于图像中的语义区域。因此,通过来自各种样式语义区域的高度不同模式来呈现均匀内容语义区域,通过视觉伪像产生不一致的程式化结果。我们提出了逐步的注意力歧管对齐(PAMA)来缓解这个问题,这反复应用关注操作和空间感知的插值。根据内容特征的空间分布,注意操作重新排列风格特性。这使得内容和样式歧管对应于特征映射。然后,空间感知插值自适应地在相应的内容和样式歧管之间插入以增加它们的相似性。通过逐步将内容歧管对准风格歧管,所提出的PAMA实现了最先进的性能,同时避免了语义区域的不一致。代码可在https://github.com/computer-vision2022/pama获得。
translated by 谷歌翻译
教科书问题应答(TQA)是一个复杂的多模式任务,可在给定大的上下文描述和丰富的图表。与视觉问题应答(VQA)相比,TQA包含大量罕见的术语和各种图表输入。它为域特定跨度语言模型的表示能力带来了新的挑战。它还将多模式融合推动到更复杂的水平。为了解决上述问题,我们提出了一个名为MOCA的小说模型,该模型包括用于TQA任务的多阶段域预制和多模式跨传。首先,我们介绍了一个多级域预押模块,以便与跨度掩模战略和监督芬特先前的预先预测的预测性预先预测。特别是对于预先预测后,我们提出了一种启发式生成算法来使用术语语料库。其次,要充分考虑上下文和图表的丰富输入,我们提出了交叉引导的多模式注意,根据渐进策略更新文本,问题图和教学图的特征。此外,采用双门控机构来改进模型集合。实验结果表明了我们的模型的优势,其优于最先进的方法,分别优于最先进的方法和2.43%的验证和测试分裂。
translated by 谷歌翻译
In this paper, we propose a robust 3D detector, named Cross Modal Transformer (CMT), for end-to-end 3D multi-modal detection. Without explicit view transformation, CMT takes the image and point clouds tokens as inputs and directly outputs accurate 3D bounding boxes. The spatial alignment of multi-modal tokens is performed implicitly, by encoding the 3D points into multi-modal features. The core design of CMT is quite simple while its performance is impressive. CMT obtains 73.0% NDS on nuScenes benchmark. Moreover, CMT has a strong robustness even if the LiDAR is missing. Code will be released at https://github.com/junjie18/CMT.
translated by 谷歌翻译